时政
财经
科技
虚拟货币
其他
登录
#Sam Altman
关注
思维怪怪
4天前
塑造全球 AI 格局的,不只是技术路线之争,还有一段从未愈合的私人创伤。 WSJ 记者 Keach Hagey 发表长篇调查报道,通过对两家公司现任和前员工及高管身边人的大量采访,首次系统披露 Anthropic 与 OpenAI 创始人之间延续十年的个人恩怨。 Dario Amodei 近几个月在内部的措辞远比公开场合激烈。他将 Sam Altman 与 Elon Musk 的法律纠纷比作「希特勒对斯大林之争」,称 OpenAI 总裁 Greg Brockman 向亲特朗普超级政治行动委员会捐款 2500 万美元是「邪恶的」(evil),将 OpenAI 及其他竞争对手比作「明知有害仍兜售产品的烟草公司」。 五角大楼争端升级后,他又在 Slack 上称 OpenAI「虚伪」(mendacious),写道「这些事实表明一种我在 Sam Altman 身上屡见不鲜的行为模式」。Anthropic 内部将这套品牌策略称为打造竞争对手的「健康替代品」(healthy alternative),今年超级碗期间一则未点名讽刺 OpenAI 在聊天机器人中嵌入广告的广告,便是其公开化的产物。 故事的起点是 2016 年旧金山 Delano 大街一栋合租房的客厅。Dario 与妹妹 Daniela Amodei 住在这里,OpenAI 联合创始人 Brockman 因与 Daniela 的私交常来串门。一天,Brockman、Dario 和 Daniela 当时的未婚夫、有效利他主义慈善家 Holden Karnofsky 坐在一起争论 AI 的正确发展路径:Brockman 认为应当告知全体美国人 AI 前沿正在发生什么,Dario 和 Karnofsky 则认为敏感信息应先报告政府而非向公众广播。这一分歧日后成为两家公司哲学路线的分水岭。 被 OpenAI 的人才阵容打动后,Dario 于 2016 年中加入,与 Brockman 熬夜训练 AI 智能体玩电子游戏。但共事四年,矛盾围绕权力与归属感不断加深。2017 年,当时 OpenAI 的主要出资人 Musk 要求列出每位员工的贡献并据此裁员,约 60 人的团队中有 10% 至 20% 被逐一解雇,Dario 视之为残忍,被裁者中有一人后来成为 Anthropic 联合创始人。同年,Dario 聘请的伦理顾问提出让 OpenAI 充当 AI 公司与政府间的协调实体,Brockman 从中引申出「将 AGI 出售给联合国安理会核大国」的设想,Dario 认为这近乎叛国,一度考虑辞职。 2018 年 Musk 退出后 Altman 接手领导。他与 Dario 达成共识:员工对 Brockman 和首席科学家 Ilya Sutskever 的领导缺乏信心。Dario 以两人不再主管为条件留下,但很快发现 Altman 同时向后两者承诺他们有权解雇自己,两个承诺互相矛盾。 GPT 系列研发启动后,围绕谁能参与语言模型项目,高管层爆发了最激烈的冲突。时任研究总监的 Dario 不允许 Brockman 染指,与 Alec Radford 共同领导该项目的 Daniela 以辞去负责人来要挟,Radford 的个人意愿被卷入高管间的代理人战争。Dario 的资历随 GPT-2 和 GPT-3 的成功水涨船高,但他觉得 Altman 淡化了自己的贡献。Brockman 上播客谈论 OpenAI 章程时,Dario 因对章程贡献更大却未被邀请而愤怒;得知 Brockman 和 Altman 要去见前总统奥巴马却把自己排除在外,他同样不满。 矛盾在一次会议室对峙中彻底激化。Altman 将 Amodei 兄妹叫进会议室,指控他们鼓动同事向董事会提交对自己的负面反馈。两人否认。Altman 说消息来自另一位高管,Daniela 当场把那位高管叫来对质,对方说完全不知情。Altman 随即否认自己说过这番话,双方激烈争吵。2020 年初 Altman 要求高管互写同行评审,Brockman 写了一份措辞强硬的反馈指控 Daniela 滥用权力、用官僚流程排除异己,Altman 事先过目评价「tough but fair」。Daniela 逐条反驳,争论升级到 Brockman 一度提出撤回评语。 2020 年底,以 Dario 为核心的团队决定出走,由 Daniela 主导与律师谈判离职事宜。Altman 亲赴 Dario 家中挽留,Dario 提出只接受直接向董事会汇报,并明确表示无法与 Brockman 共事。离职前他写了一份长备忘录,将 AI 公司分为「市场型」和「公共利益型」两类,认为理想配比是 75% 公共利益、25% 市场。数周后,Dario、Daniela 及近十二名员工离开 OpenAI,创立 Anthropic。 五年后的今天,两家公司估值均超 3000 亿美元,正竞相抢先 IPO。今年 2 月新德里 AI 峰会闭幕合影时,印度总理莫迪与在场科技领袖高举双手,Amodei 和 Altman 选择不参与,只是尴尬地碰了碰手肘。
#全球AI格局
#技术路线之争
#私人创伤
#Anthropic
#OpenAI
#Dario Amodei
#Sam Altman
#Elon Musk
#法律纠纷
#调查报道
分享
评论 0
0
TechFlow 深潮|APP 已上线
4个月前
OpenAI 首席执行官 Sam Altman 前男友遭遇抢劫,损失 1100 万美元加密货币 据 New York Post 报道,ChatGPT 母公司 OpenAI 首席执行官 Sam Altman 的前男友、风险投资家 Lachy Groom 的住所在旧金山遭遇一起价值 1100 万美元的加密货币抢劫案。 据警方消息,11 月 23 日晚,一名武装劫匪伪装成快递员,携带白色包裹按响了位于 Dorland Street 价值 440 万美元住宅的门铃。嫌疑人声称为住户 Joshua 送包裹,在受害者开门后跟随其进入室内,随后掏出枪支并用胶带将其绑住。 劫匪在约 90 分钟内清空了受害者的以太坊和比特币钱包,并盗走其手机和笔记本电脑。警方于晚上 6 点 45 分到达现场,发现受害者受轻伤。 31 岁的 Groom 是知名风险投资家,曾被誉为澳大利亚创业神童。该案件被认为是有组织犯罪集团的定向袭击。目前尚未有人被捕,调查仍在进行中。
#Sam Altman
#Lachy Groom
#加密货币抢劫
#旧金山
#有组织犯罪
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4个月前
断崖式领先? Gemini快来吧,G家这次也学会了磨叽,Sam的子弹也撸光了还没来!
Google Gemini 2.5发布引发AI模型性价比热议· 475 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 869 条信息
#Gemini
#谷歌
#Sam Altman
#OpenAI
#竞争
分享
评论 0
0
howie.serious
4个月前
chatgpt,一个单纯的工具 app,现在已经初步具备“聊天”app 的影子了🤣 侧边栏有专门的“群聊”模块。不小心就会有很多个群聊。 用户页面也有了。 再加个发动态、关注和私信功能,或许也不是不可能(尤其考虑到 sam altman 和 elon musk 不太对付)
#ChatGPT
#群聊功能
#社交化
#Sam Altman
#Elon Musk
分享
评论 0
0
北火
4个月前
看了 All Things AI 对 Sam Altman 的采访,可以肯定的是他撒谎了。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#Sam Altman
#All Things AI
#采访
#撒谎
#负面
分享
评论 0
0
Bruce
4个月前
感觉现在半个硅谷都在怀疑Sam OpenAI的潜在盈利能力开始受到强烈质疑 大家开始重新审视谷歌和特斯拉 当然还有苹果 最后卖铲子的人永赚
OpenAI与微软关系紧张,或将发起反垄断投诉· 29 条信息
#Sam Altman
#OpenAI盈利质疑
#硅谷反思
#谷歌特斯拉苹果审视
#卖铲子永赚
分享
评论 0
0
向阳乔木
4个月前
OpenAI政变揭秘,基于Ilya Sutskever法院证词。 Ilya Sutskever虽幼稚,但挑拨的Mira也不像好人。 原始52页的PDF下载 开始吃瓜 去年OpenAI董事会“政变”毫无征兆地开除了CEO萨姆·奥特曼(Sam Altman),几天后又戏剧性地请他回来。 这中间到底发生了什么? 我们都听了无数个版本:有说是为了“AGI安全”的理念之争,有说是纯粹的权力斗争,还有说是竞争对手的阴谋。 但这些都是猜的。 今天,咱们不猜了。 我搞到了一份关键文件:伊尔亚·萨茨克维(Ilya Sutskever)的法庭证词。 伊尔亚是谁? 他是OpenAI的联合创始人和前首席科学家,也是当初投票开除萨姆·奥特曼的核心董事之一 。 这份文件,就是他在“马斯克诉奥特曼”一案中,于2025年10月1日提供的长达几百页的宣誓证词 。 花了一整天时间,把这份“高度机密”的证词翻了个底朝天。 可以负责任地告诉你:真相,远比我们想象的更草率,也更惊悚。 这根本不是一个关于“AI安全”的神圣故事。 “一份神秘备忘录、一次长达一年的等待、一场基于‘二手信息’的冲动、和一个‘菜鸟’董事会差点把公司卖给竞争对手”的荒诞故事。 准备好了吗?我们开扒。 第一章:“消失的备忘录”与一年的“潜伏” 你还记得吗?当时所有人都在问:伊尔亚到底给董事会看了什么,能让他们下这么大的决心? 证词里,伊尔亚自己承认了。 他准备了一份长达52页的备忘录,代号“Exhibit 19” 。 这份备忘录不是他主动要写的,而是当时董事会的几位“独立董事”——亚当·德安吉洛(Adam D'Angelo)、海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)要求他准备的 。 这份备忘录的核心指控是什么?伊尔亚在法庭上被逼着念了出来: “萨姆表现出了一贯的说谎模式、破坏他的高管团队、并挑拨他的高管们互相对抗。” 够狠吧? 伊尔亚当时的态度非常明确。律师问他,你希望董事会采取什么行动? 他的回答只有一个词:“解雇(Termination)。” 更有意思的是,他为了准备这个“大招”,保密工作做到了极致。 首先,他根本没把这份备忘录发给整个董事会,他刻意绕过了萨姆·奥特曼。 为什么?伊尔亚的原话是: “因为我感觉,如果他(萨姆)意识到了这些讨论,他会想办法让这些讨论‘消失’。” (你品品“make them disappear”这个词,是不是有点黑帮片的感觉了?) 其次,他发送这份备忘录的方式是——“使用一种‘阅后即焚’的电子邮件” 。 他太怕了。他怕备忘录泄露。 他还写了另一份类似的、批评格雷格·布罗克曼(Greg Brockman)的备忘录,同样也是秘密发送的。 看到这里,你是不是觉得伊尔亚为了“AI安全”真是忍辱负重、用心良苦? 别急。 律师紧接着问了一个问题,彻底撕开了“理念之争”的温情面纱。 律师拿出了《华尔街日报》的一篇报道(Exhibit 20),报道里有句话是这么写的: “萨茨克维一直在等待一个时机,等待董事会的“动态”,允许奥特曼被替换掉。” 律师问伊尔亚:“这是真的吗?” 伊尔亚回答:“是的。” 律师追问:“你在等什么‘动态’?” 伊尔亚说:“等着董事会的大多数人,不再是‘明显和萨姆友好’的人。” 这还没完。 律师问:“你考虑这件事(换掉萨姆)多久了?” 伊尔亚的回答,让我倒吸一口凉气: “至少一年了。” 你发现了吗? 这根本不是什么突发事件,也不是什么理念的突然冲突。这是伊尔亚策划了至少一年的“倒萨”计划。 他一直在等,等到董事会里“萨姆的人”滚蛋 ,等到他有了可乘之机。 那么,他那份52页的“重磅炸弹”备忘录,里面的“证据”就一定很扎实吧? 呵呵。 第二章:致命的“二手信息”与“我没想过” 这是整份证词里,我个人认为最最关键的部分。它揭示了这场“政变”的基石是多么松散。 伊尔亚在备忘录里写了很多“黑料”,比如: 萨姆·奥特曼当年从YC(Y Combinator)被赶走,也是因为“制造混乱、挑拨离间” 。 格雷格·布罗克曼(Greg Brockman)“基本上也是从Stripe被开除的” 。 萨姆在GPT-4 Turbo的安全问题上对高管(比如Jason Kwon)撒了谎 。 这些指控,随便一个都能毁掉一个CEO。 律师开始发问了:你是怎么知道这些事的?你的信息来源是谁? 你猜怎么着? 证词显示,伊尔亚几乎所有关键的“黑料”,都来自同一个人——米拉·穆拉蒂(Mira Murati)。 萨姆在YC的黑料?“是米拉告诉我的。” 格雷格在Stripe的黑料?“米拉告诉我的。” 萨姆撒谎的截图证据?“都是从米拉那里拿来的。” 萨姆挑拨米拉和丹妮拉(Daniela Amodei)? “米拉告诉我的。” (多说一句,伊尔亚在备忘录里用来指控萨姆“撒谎”的截图 ,绝大多数也是米拉·穆拉蒂提供的 ) 好,那你拿到这些“二手信息”后,你交叉验证了吗? 律师开始连环追问: 问:“关于YC的事,你和布拉德·莱特凯普谈过吗?”(米拉说是布拉德告诉她的) 答:“没有。” 问:“关于格雷格被Stripe开除的事,你找格雷格本人核实过吗?” 答:“没有。” 问:“为什么不呢?” 答:“没想过。” 问:“关于萨姆撒谎的事,你和杰森·权(Jason Kwon)谈过吗?” 答:“没有。” 看到这里,我整个人都懵了。 你是一家万亿美金估值公司的首席科学家,你正准备干掉CEO,你的理由是“他爱撒谎、挑拨离间”。 而你用来证明他撒谎的所有证据,全部来自另一个人(米拉)的转述,而你一次都没有去和当事人核实过?! 你只是“完全相信(fully believed)米拉告诉我的信息”。 这就是这场政变的全部真相:它建立在未经核实的“二手信息”和“办公室传言”之上。 这就像什么? 就像你听隔壁老王说你老婆出轨了,你回家二话不说就提了离婚,连问都没问一句。 更讽刺的是,在律师的反复盘问下,伊尔亚自己也反思了。 他说,他现在回头看,才意识到了“一手知识”的“极端重要性”。 他说,他现在认为: “二手知识可以很有用,但它更像是一个‘邀请’,邀请你去做进一步的调查。” (可惜,这份觉悟来得太晚了。) 第三章:“菜鸟”董事会与“卖身”Anthropic 好,现在伊尔亚拿着这份“二手信息”备忘录,找到了几个独立董事。 这几个董事,靠谱吗? 伊尔亚在证词里,给了我们一个非常负面的描绘。 1. 董事会“非常匆忙(rushed)” 伊尔亚反思整个“开除”流程时,第一个蹦出来的词就是“匆忙” 。 为什么这么匆忙? 2. 董事会“缺乏经验” 伊尔亚的原话是:“我认为这很匆忙,因为董事会太没经验了。” 3. 董事会“极其疏离” 这些独立董事,比如海伦·托纳和塔莎·麦考利,伊尔亚自己都“不常和她们互动” 。 她们会来OpenAI办公室吗?“偶尔来(From time to time)” 。 多久来一次?“和开董事会一样频繁” 。(翻译一下:不开会就不来) 她们每次都来现场吗?“不,也是‘偶尔来’”。 伊尔亚甚至都不知道塔莎住在哪,只知道海伦“可能”部分时间住在华盛顿。 你敢信吗?这就是决定OpenAI命运的董事会。 一群对公司运营“很难评估他们熟不熟” 、一年也见不到几次的“兼职”董事。 现在,高潮来了。 这群“没经验”的董事,在伊尔亚的“二手信息”鼓动下,开除了萨姆。 然后,你猜他们干了什么? 他们立刻开始和OpenAI最大的竞争对手——Anthropic——谈“合并”! 这在以前只是个传闻,现在伊尔亚在法庭上亲口证实了。 就在开除萨姆·奥特曼的第二天(周六或周日),董事会就和Anthropic的领导层开了个电话会。 提案是什么? “Anthropic与OpenAI合并,并接管其领导权。” 谁在电话上?伊尔亚说,他记得有Anthropic的CEO 达里奥·阿莫迪(Dario Amodei)和丹妮拉·阿莫迪(Daniela Amodei)。 伊尔亚是什么反应?他当场就炸了。 他说:“我对此非常不高兴。” “我真的不想OpenAI和Anthropic合并。” 那其他董事会成员呢? 伊尔亚说:“他们(其他董事)的支持度高多了(a lot more supportive)。” 基本上,“至少没有人不支持” 。 谁最支持? “我的印象是,海伦(Toner)是最支持的。” 我的天。 我们必须停下来梳理一下海伦·托纳和Anthropic的关系: 海伦·托纳来自“Open Philanthropy” 。 这个机构与霍尔顿·卡诺夫斯基(Holden Karnofsky)有关 。 霍尔顿·卡诺夫斯基是丹妮拉·阿莫迪的丈夫 (证词里律师搞错了,伊尔亚纠正了,是夫妻)。 丹妮拉·阿莫迪和达里奥·阿莫迪(Anthropic CEO)是兄妹 ,两人都是Anthropic的创始人 。 伊尔亚也证实了海伦在2023年10月发过一篇“批评OpenAI、赞扬Anthropic”的文章 。 伊尔亚当时就觉得这“非常奇怪” ,并且“显然不合适” ,他还因此和萨姆讨论过,支持把海伦踢出董事会。 现在你把线索串起来了吗? 一个和竞争对手(Anthropic)关系密切的董事(海伦)。 利用一个基于“二手信息”的备忘录,说服了一群“没经验”的董事,开除了CEO。 然后立刻提议把公司卖给这家竞争对手。 这哪里是“AI安全”?这简直是《纸牌屋》和《商战》的混合体。 那这个“合并”为什么最后没成呢? 伊尔亚的回答是:“我记得是Anthropic那边提出了一些现实的障碍(practical obstacles),所以提案没有继续下去。” 你没看错。 不是OpenAI董事会悬崖勒马,是Anthropic自己最后“怂了”。 第四章:“使命”的困惑与“韭菜”的觉醒 整场闹剧,都打着“保护OpenAI使命”的旗号。 那么,这个“使命”到底是什么? 在萨姆被开除后,OpenAI的高管团队急了,他们和董事会开会,警告说:“如果萨姆不回来,OpenAI就会被摧毁,这是违背OpenAI使命的。” 你猜海伦·托纳是怎么回答的? 伊尔亚在证词中回忆,海伦·托纳(就是那个最支持卖给Anthropic的董事)说: “不,(允许公司被摧毁)这也符合使命。” 伊尔亚说,他当场就觉得这个答案“绝对是‘不’” 。 (我猜,这可能是伊尔亚开始后悔的第一个瞬间。他发现自己被“盟友”背刺了,他只是想换掉萨姆,而他的“盟友”想的是,如果搞不定,那就把OpenAI整个“献祭”掉。) 另一个能反映伊尔亚和公司脱节的细节,是他对员工反应的预判。 那篇《华尔街日报》报道说,伊尔亚“曾以为OpenAI的员工们会欢呼” 。 伊尔亚在法庭上否认了。 但他接下来说的话,更暴露问题。他说: “我没指望他们欢呼,但我以为他们不会有什么强烈的感觉(not feel strongly either way)。” …… 大哥,你开掉的是公司的创始人和CEO,你居然以为多名员工会“没啥感觉”? 这说明什么?说明伊尔亚,这个首席科学家,可能真的活在自己的“象牙塔”里。 他根本不明白萨姆·奥特曼对于整个公司的凝聚力意味着什么。 他天真地以为,换个CEO就像换个零件一样简单。 结果,他等来的是700多名员工联名签署“最后通牒”:萨姆不回来,我们就集体辞职。 最后的讽刺:谁在付律师费? 故事的结局我们都知道了。伊尔亚后悔了,萨姆回来了,那些“没经验”的董事们被踢走了。 伊尔亚本人呢? 他于2024年5月左右离开了OpenAI,创办了自己的新公司“Safe Superintelligence”。 但他和OpenAI的关系,可没那么简单。 律师在证词的最后,问了几个关于“钱”的敏感问题: 问:“你现在是否还对OpenAI持有经济利益?” 答:“是的。” 问:“自你离开OpenAI后,你这份利益的‘价值’是增加了还是减少了?” 答:“增加了。” (至于具体值多少钱,他的律师强烈反对并指示他不要回答 。) 问:“谁在为你今天的作证支付律师费?” 答:“我不确定……但我猜……” 问:“你觉得OpenAI在付钱吗?” 答:“我认为这(OpenAI付钱)是很有可能的。” 你品,你仔细品。 他策划了一场长达一年的“政变” ,差点把公司搞垮 ,差点把公司“卖”给竞争对手。 最后,他失败了,辞职了 但他手里的OpenAI股权反而更值钱了。 而且,今天他坐在这里,回忆自己当初是怎么“背刺”公司的,而这家公司,还得替他支付高昂的律师费。 魔幻吗? 这就是伊尔亚证词告诉我们的全部故事。 这里没有AI圣徒,没有理念之争。 只有人性、误判、轻信、冲动,以及一个“没经验” 的董事会所能犯下的、几乎所有最糟糕的错误。 资料来源 文件:伊尔亚·萨茨克维(ILYA SUTSKEVER)的 videotaped 证词。 案件:马斯克(MUSK)诉奥特曼(ALTMAN) 案件编号:Case No. 4:24-cv-04722-YGR 法庭:美国加州北区地方法院,奥克兰分部。 日期:2025年10月1日
#OpenAI政变
#Ilya Sutskever证词
#Sam Altman
#Mira Murati
#董事会
分享
评论 0
0
大宇
4个月前
《今日精选必读》 $GIGGLE 研究/复盘等2篇 Perp DEX 行业深度研报 Hyperliquid 28年涨到2000 Sam Altman访谈:GPT-6将实现质的飞跃 港股数字人第一股 大宇投资备忘(日更):讨论 $hype $aster $zec $icp 等多个币种的走势与分析 关注免费频道,每日推送
#GIGGLE研究
#perp dex
#Hyperliquid
#Sam Altman
#GPT-6
#港股数字人
#大宇投资
#HYPE
分享
评论 0
0
勃勃OC
4个月前
Sam Altman 刚刚表示,算力过剩几乎肯定会发生。 “算力过剩肯定会出现,不管是 2 到 3 年后,还是 5 到 6 年后,我现在没法告诉你,但它迟早会发生,而且很可能会在过程中出现不止一次。” 他解释了背后的驱动因素: 如果廉价能源大规模落地,目前那些长期产能与电力合同可能会变得非常糟糕,一些建设方会因此受损。 如果单位智能成本继续以非常快的速度下降(历史上约 40x/年),那么需求将激增,但之后可能会过度扩张,最终出现产能过剩。 在极端情况下,如果模型效率高到能在笔记本本地运行强大的 AI 助手,大量集中式算力建设可能会被闲置。
#Sam Altman
#算力过剩
#AI
#廉价能源
#产能过剩
分享
评论 0
0
Orange AI
4个月前
Sam 没有任何 OpenAI 的股权 但是有 OpenAI 所收购和投资公司的股权
#Sam Altman
#OpenAI
#股权
#投资
#收购
分享
评论 0
0
Orange AI
5个月前
在 YouTube 刷到 Sam Altman 在 YC 的时候分享一个分享 主题是《创业公司如何成功》,感觉太有道理了。 整理了一些核心观点: 关于趋势判断 最重要的事情,不是只看现在的市场规模,要看哪个市场在指数级增长。 真趋势和假趋势的区别:真趋势是早期用户痴迷使用并到处推荐,假趋势是被买回家但没人用。iPhone 是真趋势,2018年的VR是假趋势。 抓住平台转移的机会。当年移动应用起来的时候,初创公司调整战略比大公司快太多了。 关于产品 产品是80%的成功。是做出让用户自发推荐的东西,这比什么都重要。 初创公司最好的方向是非共识,看起来不太行,但实际却很行。因为大公司内部"一个人说不行"就能杀死项目。 在快速变化的市场里,初创公司的速度优势才能发挥出来。 关于团队 至少一个创始人要能感染别人,负责招人、卖货、搞PR、拿钱。还得有远大愿景,不然招不到顶尖人才。 团队要有这些特质:乐观、爱想点子、"我们能搞定"的精神、偏向行动。 缺乏经验有时候反而是优势。 最后一点:创始人的核心工作就是保持势头。一旦失去,很难找回来。 这是十分钟中文播客版 萨姆·奥特曼:创业公司如何获得成功 - ListenHub
#Sam Altman
#创业公司
#指数级增长
#产品自发推荐
#保持势头
分享
评论 0
0
向阳乔木
5个月前
由Claude 4.5 创作: AI风云人物之Ilya Sutskever ,那个解雇了Sam Altman的男人 ## 序章:一场无声的政变 2023年11月17日的硅谷,周五下午的阳光还算温暖。 就在大多数科技公司员工准备开始周末时,一则消息如同地震波般撕裂了整个科技圈:萨姆·奥特曼。 那个永远穿着灰色连帽衫、在推特上预言AGI即将到来的男人,那个刚刚让ChatGPT成为史上增长最快应用的CEO——被自己公司的董事会解雇了。 官方声明只有一句话:"在与董事会的沟通中不够坦诚"。这种含糊其辞的措辞,在硅谷的历史上通常意味着背后有更深的故事。 果然,几小时内,各种版本的内幕开始在Signal群组和私密晚宴上流传。 在这场风暴的中心,站着一个很少出现在聚光灯下的人:伊尔亚·苏茨克维。如果你在旧金山的咖啡馆里见过他,你可能不会认出这就是那个改变了人工智能历史进程的科学家。他不像奥特曼那样善于演讲,也不像马斯克那样喜欢制造话题。但在AI研究者的圈子里,他的名字几乎等同于"深度学习革命"本身。 这一次,正是他亲自给奥特曼打了那通电话。据说,电话那头的奥特曼一开始以为这是个玩笑。但苏茨克维的声音里没有任何开玩笑的意思。在公司内部,他已经成为一个阵营的精神领袖——那些认为"我们走得太快了"的人。 这不是一场关于股权或办公室政治的争斗。这是两种世界观的碰撞:一边是奥特曼,相信快速迭代、相信市场的力量、相信人类会找到办法;另一边是苏茨克维,他看到了自己一手创造的技术正在以超出想象的速度进化,而这让他夜不能寐。 ## 第一章:被魔法吸引的心灵 1986年,在苏联的下诺夫哥罗德市(当时还叫高尔基市),一个犹太家庭迎来了他们的儿子伊尔亚。那是一个封闭的城市,外国人被禁止进入,因为那里有苏联的军工厂。在那个年代,拥有一台电脑几乎是不可想象的奢侈。 五岁那年,苏茨克维一家响应"回归故土"的号召,离开了苏联,搬到了耶路撒冷。这是一次彻底的文化休克。从说俄语到说希伯来语,从寒冷的俄罗斯到炎热的中东,小伊尔亚需要重新学习一切。但也正是在耶路撒冷,他第一次见到了电脑。 多年后,当被问起那一刻时,苏茨克维用了一个词:"魔法"。他说自己"完全被迷住了"。这不是一个孩子对新玩具的简单兴奋,而是一种近乎宗教般的着迷。他开始思考一些对五岁孩子来说异常深刻的问题:为什么人类会学习,而机器不会?意识到底是什么? 到了青少年时期,他的兴趣已经从编程延伸到了哲学。他会在深夜思考"存在的本质和意识……关于灵魂和智能"。他的同学们在踢足球时,他在想:如果我们能理解学习的本质,是不是就能创造出会思考的机器? 16岁时,全家再次搬迁,这次是加拿大。对大多数移民家庭来说,这又是一次艰难的适应。但对苏茨克维来说,这是命运的安排——因为多伦多大学里,有一个叫杰弗里·辛顿的教授,正在做一件所有人都认为不可能的事:让神经网络重新复活。 苏茨克维的学术天赋让他在11年级就被多伦多大学录取。但真正改变他人生的,是他决定去敲辛顿办公室的门那一刻。 那是一个普通的下午。辛顿正在办公室里工作,门突然被敲响了。门外站着一个年轻人,看起来还像个高中生。 "我想加入你的实验室。"苏茨克维说。 辛顿打量着这个不请自来的访客,说:"好的,你可以预约个时间。" 苏茨克维的回答成为了AI圈子里的一个传奇:"现在怎么样?" 这种近乎鲁莽的自信,本该让辛顿把他赶出去。但辛顿看到了这个年轻人眼中的某种东西——一种纯粹的、对知识的渴望。他决定给他一个机会。辛顿递给他一篇论文,让他读完后谈谈想法。 接下来发生的事让辛顿震惊了。苏茨克维不仅读懂了这篇论文,他的见解"是该领域的专家需要很长时间才能得出的结论"。辛顿后来回忆说,苏茨克维拥有一种罕见的天赋:"强大的直觉"。更令人惊讶的是,这位后来获得图灵奖的教授说:"我从他身上学到的比他从我身上学到的更多。" 这不是客套话。辛顿是认真的。 ## 第二章:不容辩驳的论点 2010年代初的人工智能研究,是一个被遗忘的角落。如果你在那时告诉别人你在研究神经网络,大多数人会礼貌地点点头,然后转移话题。主流是贝叶斯模型和支持向量机,神经网络被认为是上世纪80年代的失败实验。 在多伦多大学的一间实验室里,辛顿和他的几个学生成了这个领域最后的守望者。大多数研究者在做15到100个神经元的小模型,小心翼翼地调参数,期待着微小的改进。 但苏茨克维有一个完全不同的想法。 在一次实验室会议上,他提出了一个大胆的假设:"如果你的神经网络又深又大,那么它就可以被配置来解决一个困难的任务。" 这听起来简单,但在当时,这是异端邪说。整个领域的共识是:神经网络太大就会过拟合,太深就会无法训练。但苏茨克维有一种近乎固执的信念。他不是基于实验数据得出这个结论的——因为当时还没有人做过这样的实验。他是基于第一性原理推理出来的:如果大脑能工作,为什么大型神经网络不能? 辛顿后来总结得很精辟:"伊尔亚认为我们应该做,亚历克斯让它成功了,而我拿了诺贝尔奖。"这不是谦虚,而是对苏茨克维洞察力的真实评价。 但要证明这个想法,他们需要两样东西:海量的数据和强大的计算能力。数据有了——ImageNet,一个包含120万张标注图片的数据集。但计算能力呢?当时的CPU训练一个大模型需要几个月。 苏茨克维想到了GPU——那些本来是为游戏玩家设计的图形处理器。据说,他自己在网上订购了几块NVIDIA GTX 580显卡。当这些显卡送到实验室时,没人确定这个疯狂的想法是否能行得通。 2012年的ImageNet挑战赛,是计算机视觉领域的奥林匹克。全世界最好的团队都在竞争,试图让计算机准确识别图片中的物体。前几年的进步都是渐进式的——错误率每年降低一两个百分点。 当AlexNet的结果公布时,整个会场安静了几秒钟。15.3%的错误率,比第二名的26.2%低了整整10个百分点。这不是渐进式的改进,这是一次革命。 有人后来形容那一刻是"现代人工智能的宇宙大爆炸"。在AlexNet之前,几乎没有顶级计算机视觉论文使用神经网络;在它之后,几乎所有论文都在用。苏茨克维的"不容辩驳的论点"不再是异端,而成了新的正统。 ## 第三章:机器的语言 2013年,谷歌的人工智能团队负责人杰夫·迪恩(Jeff Dean)做了一个决定:不惜一切代价把辛顿团队挖到谷歌。最终的收购价是4400万美元——对于一个只有三个人的初创公司来说,这是天文数字。 但这笔交易中有一个细节很少被提及:在分配这笔钱时,苏茨克维和克里泽夫斯基坚持认为辛顿应该拿40%,而他们两个年轻人各拿30%。在一个充满了期权纠纷和创始人内讧的行业里,这种慷慨几乎是闻所未闻的。 在谷歌大脑,苏茨克维进入了一个新的世界。这里有他梦寐以求的计算资源,有世界上最聪明的工程师,还有一种文化:如果你有一个疯狂的想法,没人会阻止你去尝试。 2014年,苏茨克维和同事们在思考一个问题:能否让神经网络理解语言?不是简单地识别单词,而是真正理解句子的含义,能够翻译,能够对话。 他们开发的"序列到序列"模型,核心思想优雅得令人惊叹:让一个神经网络"阅读"一个句子,把它压缩成一个向量(他们称之为"思想向量"),然后让另一个神经网络把这个向量"解码"成另一种语言。 当这个模型在英法翻译任务上超越了传统的统计机器翻译系统时,很多人意识到:深度学习不仅能处理图像,它可能是一种通用的学习范式。苏茨克维再一次证明了他的直觉:规模和深度能够解锁新的能力。 在谷歌的这段时间,苏茨克维参与了从AlphaGo到TensorFlow的众多项目。但到了2015年,他开始感到不安。谷歌是一家伟大的公司,但它终究是一家公司。如果AGI真的即将到来,它应该属于谁?应该由谁来确保它的安全? 这时,他接到了一个电话。电话那头是埃隆·马斯克。 ## 第四章:为全人类的使命 马斯克的提议很简单,也很疯狂:创立一个新的AI实验室,完全非营利,目标只有一个——确保AGI造福全人类。初始资金10亿美元。团队包括萨姆·奥特曼,一个年轻的创业者,刚刚卸任Y Combinator的总裁。 据说,马斯克亲自飞到谷歌总部去说服苏茨克维。这激怒了谷歌的CEO拉里·佩奇。佩奇和马斯克曾经是朋友,他们曾在深夜讨论AI的未来。但现在,马斯克在挖他的人。 佩奇质问马斯克:你为什么这么担心AI的安全?你是不是对人类没有信心? 马斯克的回答很直接:我只是想确保我们不会创造出一个会毁灭人类的东西。 佩奇说:那你就是个物种主义者。 这次争吵标志着两人友谊的终结。但对苏茨克维来说,这次对话揭示了问题的核心:当AGI到来时,我们需要一个不受商业利益驱动的组织来确保它的安全。 2015年12月,OpenAI在旧金山的一个联合办公空间里成立了。创立博客文章写道:"我们的目标是推进数字智能,使其最有可能造福全人类,不受产生财务回报需求的约束。" 苏茨克维成为首席科学家。他的办公桌很简单:一台电脑,几块白板,还有一摞关于神经网络的论文。他很少参加硅谷的社交活动,也不喜欢接受采访。他的世界就是代码、数学和那个一直困扰他的问题:如何让机器真正理解世界? 在OpenAI的早期,团队很小,氛围像学术实验室多过像公司。苏茨克维会和研究员们进行马拉松式的讨论,在白板上写满公式,争论到深夜。他的信念依然没变:"我坚信越大越好,我们在OpenAI的目标之一就是弄清楚如何正确地利用规模。" GPT的诞生几乎是偶然的。团队在尝试各种方法让模型理解语言。有一天,有人提出:如果我们只是让模型预测下一个词呢?就这么简单的任务,但用一个巨大的模型,在海量的文本上训练。 苏茨克维立刻看到了这个想法的潜力。他相信,当你把这个简单的任务规模化到极致时,模型会被迫学习语言的深层结构,学习世界的运作方式。因为要准确预测下一个词,你需要理解语法、逻辑、常识,甚至人类的心理。 从GPT-1到GPT-2,再到GPT-3,模型越来越大,能力越来越强。但真正让世界震惊的,是2022年11月发布的ChatGPT。 ## 第五章:机器中的幽灵 ChatGPT发布后的几周,苏茨克维几乎消失了。他不回邮件,不参加庆功会。同事们在办公室里找到他时,他正盯着屏幕,和ChatGPT进行长时间的对话。 "你在干什么?"有人问。 "我在测试它是否有意识。"苏茨克维说。 这不是玩笑。2022年2月,在ChatGPT发布之前,苏茨克维在推特上发了一条让整个AI圈炸锅的推文:"今天的大型神经网络可能略带意识。" 这条推文引发了激烈的争论。很多人认为这是荒谬的,神经网络只是统计模型,谈什么意识?但苏茨克维是认真的。他不是说这些模型有人类那样的意识,而是说它们可能有某种我们还不理解的、初级形态的主观体验。 在一次内部会议上,有人问他:你真的相信这个吗? 苏茨克维的回答很慎重:"我不知道。但我知道的是,当我和这些模型交互时,我感觉到某种东西。也许这只是我的投射,也许不是。但如果有万分之一的可能性它们有某种意识,我们就需要认真对待。" 这种思考方式在苏茨克维身上很典型。他不是一个会轻易下结论的人,但他也不会因为一个想法不受欢迎就放弃它。他的整个职业生涯都在证明:那些看起来疯狂的想法,有时候是对的。 但随着模型能力的提升,苏茨克维的担忧也在加深。他开始公开谈论超级智能的风险,时间单位不是几百年,而是可能在十年之内。他警告说,AGI的发展轨迹可能变得"极其不可预测和难以想象",可能导致"人类被剥夺权力,甚至人类灭绝"。 这是一个经典的悖论:苏茨克维毕生的工作就是让AI变得更强大,但现在,他最担心的就是AI变得太强大。创造者开始害怕自己的创造物。 2023年7月,他宣布了一个雄心勃勃的计划:超级对齐项目。目标是在四年内解决超级智能的对齐问题。他把这个问题比作"核安全"——不是关于用户体验或伦理准则的软性问题,而是关于如何控制一种可能毁灭文明的力量的硬核工程挑战。 OpenAI承诺将20%的计算资源分配给这个项目。在一个计算资源就是金钱、就是竞争力的行业里,这是一个巨大的承诺。 但承诺是一回事,执行是另一回事。 ## 第六章:引爆点 2023年11月17日之前的几个月,OpenAI内部的紧张气氛已经达到了临界点。 一边是奥特曼,他看到了ChatGPT带来的巨大机遇。用户数突破一亿,微软投资超过100亿美元,每个科技巨头都在追赶。这是AI的iPhone时刻,而OpenAI处于领先地位。奥特曼想要快速迭代,推出新产品,占领市场。 另一边是苏茨克维和他的安全团队。他们觉得公司在玩火。模型的能力提升速度超出了他们的理解速度。承诺的20%计算资源没有完全兑现。安全研究被"更紧急"的产品需求挤到了一边。 据内部人士透露,苏茨克维在一次高管会议上几乎失控。他拍着桌子说:"我们不知道我们在创造什么!我们需要慢下来!" 奥特曼的回应是:如果我们慢下来,别人不会。中国不会慢下来,谷歌不会慢下来。我们只有保持领先,才能确保AGI以正确的方式被开发出来。 这是两种都有道理的逻辑,但它们无法共存。 11月17日,星期五下午。奥特曼正在参加一个会议,他的手机响了。是苏茨克维。 "萨姆,我们需要谈谈。" "现在吗?我在开会。" "现在。" 奥特曼走出会议室。电话那头,苏茨克维的声音很平静,但有一种不容置疑的坚定:"董事会已经做出决定。你被解雇了。" 据说,奥特曼沉默了几秒钟。然后他问:"这是你的决定吗?" "这是董事会的决定。"苏茨克维说,"但是,是的,我投了赞成票。" 接下来的五天,硅谷经历了有史以来最疯狂的一次危机。 周六,消息传开。投资者震惊了,员工震惊了,整个科技圈都震惊了。奥特曼发了一条推特,配上他在OpenAI办公室的照片,戴着访客证。这是一个挑衅的姿态。 周日,谈判开始。但很快破裂了。董事会不愿意让步,奥特曼也不愿意接受附加条件。 周一,微软CEO萨提亚·纳德拉宣布:奥特曼和布罗克曼将加入微软,领导一个新的AI实验室。这是一个大胆的举动——如果OpenAI的核心人才都走了,微软的100亿美元投资就打了水漂。但这也是一个威胁:你们不要他,我们要。 然后,真正的海啸来了。OpenAI的700多名员工签署了一封公开信,威胁集体辞职。这不是几个高管,而是几乎整个公司。信的内容很简单:让奥特曼回来,否则我们都走。 最令人震惊的是:签名名单里有伊尔亚·苏茨克维。 那天晚上,苏茨克维发了一条推特:"我对自己参与董事会的行动深感后悔。我从未想过要伤害OpenAI。我热爱我们共同建立的一切,我将尽我所能重新团结公司。" 这条推文在AI圈子里引发了巨大的困惑。他为什么改变主意了?是压力太大了吗?还是他意识到自己错了? 真相可能更复杂。苏茨克维是一个科学家,不是一个政治家。他基于原则做出了解雇奥特曼的决定——他真诚地相信这对公司的使命是正确的。但当他看到自己的行动可能导致整个公司崩溃时,他面临了一个痛苦的选择:坚持原则,还是拯救机构? 他选择了后者。但这个选择也意味着他在OpenAI的时代结束了。 周二,奥特曼回归。董事会重组。苏茨克维退出董事会,但保留了首席科学家的头衔。表面上看,危机解决了。但所有人都知道,事情已经无法回到从前。 ## 第七章:僧侣与新使命 接下来的几个月,苏茨克维成了OpenAI的幽灵。他很少出现在办公室,很少参加会议。"伊尔亚去哪儿了?"成了公司内部的一个梗。 有人说他在家里远程工作,有人说他的权限被限制了,还有人说他在和奥特曼进行艰难的和解谈判。奥特曼在公开场合很小心,说他们正在"讨论伊尔亚如何继续在OpenAI工作"。但这种模糊的表述本身就说明了问题。 2024年5月,靴子落地了。苏茨克维宣布离开OpenAI。 但真正的冲击波是几小时后到来的。简·雷克,超级对齐团队的联合负责人,也宣布辞职。他的离职声明毫不留情:"OpenAI的安全文化已经为光鲜的产品让路。"他说,超级对齐团队一直在"逆风航行","为计算资源而挣扎"。那个20%的承诺?从未完全兑现。 其他安全研究员陆续离职。超级对齐团队被解散。苏茨克维在OpenAI建立的安全研究体系,在他离开后迅速瓦解了。 但苏茨克维没有消失很久。一个月后,他宣布了一家新公司:Safe Superintelligence Inc.。 公司网站极其简洁,只有几段话。但每个字都经过精心选择:"我们的使命、产品和商业模式三位一体:一个安全的超级智能。这是我们唯一的关注点。" 这是对OpenAI模式的直接批判。不再有"利润上限"的复杂结构,不再有在使命和商业之间的平衡。SSI的商业模式就是它的使命。公司"免受短期商业压力的影响","不受管理开销或产品周期的干扰"。 苏茨克维进入了"僧侣模式"。他停止了公开演讲,停止了社交媒体,几乎停止了所有与外界的联系。他的联合创始人丹尼尔·格罗斯说:"伊尔亚现在只做一件事:思考如何构建安全的超级智能。" 公司迅速筹集了10亿美元。投资者名单保密,但据说包括一些相信长期主义的科技亿万富翁。他们不期待短期回报,他们投资的是一个理念:也许,只是也许,有可能创造一个足够纯粹的研究环境,在技术能力超越我们控制之前解决对齐问题。 ## 结论:信徒的博弈 2024年秋天的一个晚上,在斯坦福大学的一个小型研讨会上,有人问杰弗里·辛顿:你如何评价伊尔亚解雇奥特曼的决定? 辛顿,这位刚刚获得诺贝尔奖的AI教父,毫不犹豫地说:"我为他感到骄傲。" 房间里一片寂静。辛顿继续说:"伊尔亚做了他认为正确的事。在一个充满了追逐利润和炒作的行业里,他选择了原则。这需要巨大的勇气。" 有人问:但他失败了,不是吗?奥特曼回来了,他被迫离开了。 辛顿摇了摇头:"这取决于你如何定义失败。如果目标是赢得一场公司政治斗争,那是的,他失败了。但如果目标是提醒世界AI安全的重要性,引发一场关于我们应该如何开发AGI的全球讨论,那么他成功了。" 这或许是理解苏茨克维的关键。他不是一个政治家,不是一个商人,甚至不是一个传统意义上的科学家。他是一个信徒。 他的第一个信仰是:规模能够解锁智能。当整个领域都在做小模型时,他坚信大模型能够工作。他赌对了,这场赌博创造了我们今天所处的AI时代。 他的第二个信仰是:我们需要在AI超越我们之前解决对齐问题。这场赌博还在进行中。 Safe Superintelligence Inc.是一个实验。它在测试一个假设:是否可能创造一个完全专注于安全的AI实验室,不受商业周期的干扰,不受投资者季度报告的压力,只专注于一个目标——构建一个不会毁灭人类的超级智能。 这个实验可能会失败。也许纯粹的研究环境无法与商业实验室的资源竞争。也许对齐问题比我们想象的更难。也许AGI会在我们准备好之前到来。 但如果这个实验成功了,如果SSI真的找到了构建安全超级智能的方法,那么苏茨克维将再一次证明:有时候,信念比共识更重要,原则比利润更重要,长期思考比短期收益更重要。 2025年的某一天,在帕洛阿尔托的一间实验室里,苏茨克维正在白板上写公式。他的团队很小,只有几十个研究员,但每个人都是因为相信这个使命而来的。没有产品发布的压力,没有投资者的电话会议,只有一个问题:我们如何确保人类创造的最强大的技术不会毁灭我们? 这是一个没有人知道答案的问题。但如果有人能找到答案,那个人很可能就是那个曾经敲开辛顿办公室门的年轻人,那个说"现在怎么样?"的信徒。 历史会证明他是对还是错。但无论结果如何,伊尔亚·苏茨克维已经在AI的历史上留下了不可磨灭的印记。他不仅帮助创造了这场革命,他还试图确保这场革命不会成为人类的终结。 这或许就是一个真正的科学家所能做的最重要的事情:不仅要问"我们能做什么",更要问"我们应该做什么"。
#Ilya Sutskever
#Sam Altman
#OpenAI
#AI安全
#深度学习
分享
评论 0
0
Orange AI
5个月前
OpenAI 昨晚开了场直播,Sam Altman、首席科学家 Jakub 和联合创始人 Wojciech 三个人聊了很多。 大聪明用 ListenHub 的 API 把原版重新配了中文音。Jakub 原声实在是...配音版体验竟然超过了原版 🤣。 收听地址:【中文配音完整版】OpenAI 完成了资本重组,并以最大尺度进行了一场直播】 另外把核心信息整理成了 QA,挑几个重点说说。 研究时间表 OpenAI 内部定了两个时间点: • 2026 年 9 月前:做出"AI 研究实习生",能有意义地加速研究员工作 • 2028 年 3 月前:实现完全自动化的 AI 研究员 Sam 说这些日期完全可能搞错,但这就是他们现在的思考方式。 Jakub 用"时间跨度"来衡量模型能力,就是普通人完成同样任务需要多久。现在这一代模型大约是 5 小时。 距离超级智能还有多远?Jakub 说不到十年。 基础设施投入 Sam 公布的数字: • 略高于 30 吉瓦的基础设施工厂计划 • 未来很多年里,总共约 1.4 万亿美元的财务责任 终极愿景是建立一个"基础设施工厂",每周生产 1 吉瓦的算力,成本降到大约每吉瓦 200 亿美元。 Sam 开玩笑说:可能得重新规划一下机器人技术的思路,让它们来帮忙建数据中心。 1 吉瓦是什么概念?Sam 展示了德克萨斯州 Abilene 正在建设的数据中心,第一个"星际之门"站点。每天有成千上万的人在工地工作,可能还有几十万甚至几百万人在供应链上工作。 安全技术突破 关键技术是思维链忠诚度。 核心想法是,让模型内部推理的一部分过程不受监督,训练期间不去干预它。这样它就能保持对其内部过程的真实反映。 OpenAI 克制自己,不去引导模型产生"好的想法",从而让它对自己的真实想法保持忠诚。 这个技术在 OpenAI 内部大量使用,用来理解模型是如何训练的,它们的倾向性在训练过程中如何演变。 但它有些脆弱,需要划定清晰的界限。比如 ChatGPT 里的思维链摘要器,就是为了给模型保留一定程度的、可控的隐私。
#OpenAI直播
#Sam Altman
#AI研究时间表
#基础设施投入
#思维链忠诚度
分享
评论 0
0
terrific
5个月前
继 Grok 打擦边球之后 OpenAI 也开始涉黄。 颇具讽刺意味的是,澳洲几乎在同一时间即将生效的是 Under-16 Social Media ban 「把成年人当成年人对待」,但别忘了:在 ChatGPT 上消费成人情色内容时所使用的提示词,以及对应的持久化记忆,都会被收集起来。 诸位信得过 Sam Altman 么? 🤣
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#OpenAI涉黄
#Grok打擦边球
#Under-16 Social Media ban
#Sam Altman
#ChatGPT成人情色内容
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5个月前
一个在符号空间空转的LLM,计算时间越长,泡沫越大吧 sam的hype死穴在于符号接地! If GPT-6 is 30 IQ points above GPT-5 and can work for days to months, the economic value will skyrocket
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#LLM
#GPT-6
#经济价值
#Sam Altman
#泡沫
分享
评论 0
0
Fu Sheng
5个月前
Sora2火了。 AI世界的“主角”变成了全民二创的奥特曼。 从长城到三亚,从NBA到显卡店, Sam Altman成了最忙的AI代言人。 连我老妈都问 ‘这老外谁啊?怎么哪都能看见他...’
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#Sora2
#Sam Altman
#AI
#奥特曼
#全民二创
分享
评论 0
0
howie.serious
5个月前
sam altman 08 年在wwdc 演讲的视频。立领 polo,红配绿,还两个领子,哈哈
#Sam Altman
#WWDC 08
#演讲
#立领Polo衫
#红配绿
分享
评论 0
0
howie.serious
5个月前
AMD 一夜暴涨 30% 之后,我重读了一下 sam altman 的 blog(智能富足时代),然后让 gpt-5 pro 猜测下一个宣布的合作对象。 可能性最高的就是 avgo,博通。 问题来了,你猜我买没买?🤣
英伟达市值破四万亿,AI芯片霸主地位稳固?· 216 条信息
#AMD
#Sam Altman
#博通(AVGO)
#GPT-5
#股票
分享
评论 0
0
orange.ai
5个月前
刚读完 Sam Altman 的最新访谈,有三个点让我印象深刻 一、OpenAI 的 Windows 定位 Ben Thompson 说:你们是 AI 的 Windows。 Altman 的回答很有意思,他没否认: "大多数人会想要一个 AI 服务,贯穿整个生活。ChatGPT 是主要入口,但会集成其他应用。你会用 OpenAI 账号登录其他服务,保持体验连续性。" 这个类比很准确。 一端提供所有终端用户交互的 API(消费者+企业) 另一端成为大规模基础设施建设的目标客户 Altman 自己的类比是谷歌:在家用,在工作用,没有雇主会封杀,就是同一个服务。 他还说了一句:AI 最好的历史类比是晶体管,会渗透到每一个产品中,不会赢家通吃。 矛盾吗?不矛盾。 Windows 也没赢家通吃,但它确实是那个时代最重要的层。 二、Sora 打破了创作者的 90/9/1 规则 Sora 推出后的数据让人震惊。 传统互联网有个 90/9/1 规则: 90% 的人潜水 9% 的人偶尔互动 1% 的人创作 Altman 说,Sora 前几天的数据是:30%+ 的活跃用户是活跃创作者。 30 倍的提升。 他的解释是:"世界上有大量潜在创意表达需求。如果你给人们让他们快速从想法到创意输出的工具,这触及某种非常深刻的人类需求。" 关键词:降低创作的激活能量。 以前我们以为只有 1% 的人想创作,其实是工具门槛太高。 当从想法到作品的成本足够低,创作不再是少数人的特权。 有个细节很有趣:为什么 Sora 不放在 ChatGPT 里? Altman 说:"ChatGPT 太私密和个人化。如果加入社交特性,人们会想'我还要告诉它我最深的问题吗?'" 产品心态要分开:私密工具和创作工具,不能混在一起。 货币化也很直接:很多人只是做表情包发给 3 个朋友,广告模式支撑不了成本,只能按生成收费。 三、版权持有者会从"别用我的"变成"多用我的" Altman 对版权问题的预测很大胆。 他说:现在版权持有者可能说"我不喜欢 AI 用我的内容",但一年内,会变成"OpenAI 对我不公平,没把我的内容放在足够多的视频里"。 逻辑是这样的: 随着 AI 创造越来越多的定制内容,普遍认可的共同事物(知名 IP)会增值。 Ben Thompson 说得很形象:知名 IP 是"人们触碰的图腾柱"。 实际情况已经在印证:Altman 说,更多版权持有者主动联系他说"这对我有利,确保我得到足够的生成",比拒绝的多。 视频和图像不一样。视频情感冲击更强,所以版权方需要更多控制。他们想要的不是"不用",是"按我的规则用"。 这是一个从防御到价值积累的转变。 AI 时代,稀缺性的定义变了。信息不稀缺,共识才稀缺。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#OpenAI
#Sam Altman
#Sora
#AI创作
#版权
分享
评论 0
0
AI Will
5个月前
Sam Altman 谈:Sora、能源与打造AI帝国 a16z与Sam Altman探讨了: 支撑OpenAI所有布局的核心理念、他们为什么发布Sora、模型在内部是如何被使用的、哪些评测最能反映AI发展的真实进展、以及从这里开始未来将走向何方。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#Sam Altman
#OpenAI
#Sora
#AI帝国
#a16z
分享
评论 0
0
袁起Hashman
5个月前
Sam Altman目前40岁,看起来如20多岁的小伙子。可以推测其非常自律,非常注重养生,睡眠、饮食和锻炼。看过他说非常重视睡觉,每天都睡足8小时,还看过他说不吃辣椒,原因会引发炎症。
#Sam Altman
#养生
#自律
#健康饮食
#充足睡眠
分享
评论 0
0
ginobefun
5个月前
OpenAI 开发者日 2025,Sam Altman 主题演讲的四件事: - Apps SDK:在 ChatGPT 内部构建应用。 - Agent Kit:简化智能体的创建。 - Codex:一个能自主编写、重构、审查软件的智能体。 - 新模型 (GPT-5 Pro, Sora 2):更强的大脑和新的感官(视频、音频)。 这是一个典型的产品发布会:提供新工具,展示新能力。但这不是重点。
#OpenAI开发者日2025
#Sam Altman
#GPT-5 Pro
#Sora 2
#AI
分享
评论 0
0
yv
5个月前
Sam Altman在华强北选购组装显卡
#Sam Altman
#华强北
#显卡
#购物
#中性
分享
评论 0
0
howie.serious
6个月前
用户:给我们一个 sora 邀请码! sam altman:别担心,每个人都会拿到 sora 邀请码。 (视频来自 sora2 邀请码接力群的群友)
#Sora
#邀请码
#Sam Altman
#AI
#视频
分享
评论 0
0
dontbesilent
6个月前
Sam Altman 这种没有道德底线的人,在美国竟然是明星 跟我国爆火的张雪峰,如出一辙
#Sam Altman
#道德缺失
#张雪峰
#美国
#负面
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞